• Generatieve artificial intelligence (AI) kan binnenkort mogelijk getraind met door AI gegenereerde content. Experts luiden daarover de noodklok.
  • Het risico is dat AI-software output van lagere kwaliteit gaat genereren.
  • Op dit moment verschijnt er al in toenemende mate incorrecte informatie online die door AI-programma’s wordt geleverd.
  • Lees ook: Hoe besluit ChatGPT wat het antwoord op een vraag moet zijn? Zo gaat dat in zijn werk

Door artificial intelligence (AI) gegenereerde content is een gevaar voor de technologie die het creëerde, waarschuwen experts.

In een recent rapport over hoe generatieve AI-tools zoals ChatGPT getraind worden, meldt een team van onderzoekers dat de zogenoemde ‘large language models‘ (LLM’s, de technologie waarop AI-chatbots werken) mogelijk getraind kunnen worden met door AI gegenereerde content. De onderzoekers, afkomstig van prestigieuze scholen als de Universiteiten van Oxford en Cambridge, noemen dit fenomeen ‘model collapse‘.

Volgens het rapport zou de kwaliteit van de output van generatieve AI-tools hierdoor afnemen. Iets wat zou verergeren naarmate de technologie meer en meer getraind wordt op de ‘synthetische data’, in plaats van content die door mensen wordt gemaakt.

Andere onderzoekers beschrijven hetzelfde probleem op een andere manier en geven het een andere naam. Onderzoekers van de universiteiten van Stanford en Rice noemen het ‘Model Autography Disorder‘. Zij beweren dat het trainen van modellen met AI-data leidt tot een afzwakking van de kwaliteit en diversiteit in de afbeeldingen en teksten die AI kan genereren.

Een groot gevaar voor de kwaliteit van publieke informatie

Wat het effect van het fenomeen precies zal zijn, is nog onduidelijk. Sommige experts denken dat het moeilijk kan worden om de oorspronkelijke informatie waarmee een AI getraind is, te achterhalen.

Als reactie hierop zouden partijen die accurate informatie publiceren ervoor kunnen kiezen om dit voortaan onbereikbaar te maken voor AI. Het zou bijvoorbeeld achter een betaalmuur geplaatst kunnen worden. Dit zou de kwaliteit van de publiekelijk beschikbare informatie niet ten goede komen, schrijft CEO Ray Wang van onderzoeksbureau Constellation Research.

Andere experts maken zich niet zo'n zorgen over de toename van door AI gegenereerde content op het internet. Saurabh Baji van AI-bedrijf Cohere vertelde tegen Axios dat menselijke sturing "nog steeds de sleutel is tot het succes en de kwaliteit" van hun door AI gegenereerde modellen. Anderen zeiden dat de toename van AI-content de door mensen gemaakte content alleen maar waardevoller maakt.

Sinds OpenAI ChatGPT in november publiekelijk beschikbaar maakte, groeit het aantal websites dat gevuld wordt met door AI gegenereerde artikelen gestaag. Tot 28 augustus jongstleden vond NewsGuard, een bedrijf dat de betrouwbaarheid van nieuwssites monitort, 452 "onbetrouwbare door AI-gegenereerde nieuwssites met weinig tot geen menselijke controle" die berichtgeving bevatten die vol staat met fouten.

Meerdere partijen liepen al tegen de lamp met AI-content

Maar het probleem gaat verder dan door AI volgeschreven websites waar geen mens aan te pas komt. In januari ging techwebsite CNET door het stof omdat het 77 artikelen had gepubliceerd die met behulp van een "intern ontwikkelde AI-engine" waren geschreven en vol zaten met fouten.

Enkele maanden later kreeg Gizmodo, eveneens een techwebsite, kritiek omdat leidinggevenden ervoor hadden gezorgd dat er artikelen gepubliceerd worden die door AI geschreven waren en veel fouten bevatten.

En zelfs Microsoft, dat nauw samenwerkt met OpenAI, moest ingrijpen en een artikel van een van diens reisblogs verwijderen. De AI die het artikel had geschreven raadde vakantiegangers naar Ottawa aan om de plaatselijke voedselbank op een lege maag te bezoeken.

Door deze ontwikkelingen is het mogelijk dat mensen meer moeite zullen krijgen met het vinden van betrouwbare informatie. Dit wordt bemoeilijkt doordat programma's zoals ZeroGPT en OpenAI's Text Classifier, die door AI geschreven teksten moeten herkennen, niet goed blijken in precies deze taak, zei onderzoeker Kai-Cheng Yang tegen Insider. "De vooruitgang van AI-tools zal het idee van online informatie voor altijd veranderen.".

LEES OOK: De grootste uitdaging van artificial intelligence ligt niet bij vooroordelen of uitlegbaarheid, maar bij het ecosysteem rondom AI